OpenAI重拾规则系统,用「AI版机器人定律」守护大模型安全
OpenAI重拾规则系统,用「AI版机器人定律」守护大模型安全在大算力和大数据让基于统计的 AI 模型真正变得强大且有用之前,基于规则的系统长期以来是语言模型的主导范式。
在大算力和大数据让基于统计的 AI 模型真正变得强大且有用之前,基于规则的系统长期以来是语言模型的主导范式。
三个月前,「LiblibAI 哩布哩布 AI」,一个 AI 模型社区型产品,在一年内完成了三轮共计数亿元的融资。
另一种类似但更高级的「PUA」大模型方法出现了,它可以写下让所有的浏览器和人眼都不可见,只有 AI 模型可以读取的指令。 这种手段早在互联网出现之前就有了,分属于信息科学中的一个子类,这就是「隐写术」(Steganography)。
随着 AI 模型的参数量越来越大,对算力的需求也水涨船高。
未来的 AI 模型的能力将不仅局限于逻辑推理,它还应该具备自主计划和行动的能力。
o1 模型何以成为企业游戏规则的改变者?
近年来,科技公司不断推出更先进的 AI 模型,而监管机构屡屡措手不及。可以预见,实验室即将发布的新模型将带来新的监管挑战。这只是时间问题。例如,OpenAI 可能在几周内发布 ChatGPT-5,这款模型有望进一步提升 AI 的能力。目前来看,几乎没有任何力量能够延缓或阻止那些可能带来极大风险的模型的发布。
最近一直在想一个问题。为什么我们的图像 AI 模型那么耗算力?比如,现在多模态图文理解 AI 模型本地化部署一个节点,动不动就需要十几个 G 的显存资源。
随着 AI 模型越来越擅长模仿人类行为,区分真正的互联网用户和模仿他们的复杂系统变得愈发困难。 真正的问题在于当这些系统被用于传播虚假信息或进行欺诈等恶意目的;这让我们难以信任在网上遇到的内容。
过去十几年来,科技巨头之间发生了前所未有的激烈竞赛,囤积算力、笼络人才,还要小心翼翼地看护好自己的护城河,大家都希望能锻造出最好的 AI 模型,获得进入 AGI 时代的门票